سازندگان چت بات: هنوز نمیدانیم چطور باید در فرآیندی دموکراتیک خطرات هوش مصنوعی را کنترل کرد!

۱۴۰۲/۰۳/۰۳ - ۲۳:۴۶:۴۶
کد خبر: ۱۴۷۷۶۵۱
سازندگان چت بات: هنوز نمیدانیم چطور باید در فرآیندی دموکراتیک خطرات هوش مصنوعی را کنترل کرد!
مدیرعامل اوپن.ای.آی و دو نفر از موسسان این شرکت در نامه‌ای درخواست کردند تا نهادی بین‌المللی برای کنترل خطرات حیاتی هوش مصنوعی ایجاد شود.

گروه علمی و فناوری خبرگزاری برنا؛ مدیران و توسعه دهندگان فناوری چت‌بات ChatGPT خود اکنون بیش از هرکس دیگری نگران شوری آشی شده‌اند که اخیراً پخته‌اند،  گسترش روزافزون نگرانی‌ها دربارۀ ابعاد خطرناک هوش مصنوعی و اثرات ویرانگی که می‌تواند بر زندگی بشر بگذارد، سبب شده است تا آن‌ها خواستار تشکیل سازمانی معادل «آژانس انرژی اتمی» شوند تا مقرراتی بین‌المللی برای کنترل هوش مصنوعی وضع کند.

«گرگ براکمن» و «ایلیا سوتسکور» و «سم آلتمن»، مدیرعامل اوپن.ای.آی به عنوان مدیران ارشد توسعه دهندۀ این فناوری، خواهان تشکیل یک نهاد تنظیم‌گر بین‌المللی برای مدیریت مخاطرات هوش مصنوعی، وضع مقرراتی جهت کار بر روی نحوه بازرسی سیستم‌ها، ممیزی، آزمایش انطباق با استاندارد‌های ایمنی، و اعمال محدودیت‌هایی در درجات استقرار و سطوح امنیتی شدند.

تاثیر ۱۰ ساله هوش مصنوعی بر زندگی بشر

براساس گزارش گاردین انگلیس افراد مذکور معتقدند که آن روز دور نیست که در کمتر از ۱۰ سال آینده، سیستم‌های هوش مصنوعی در بیشتر حوزه‌ها از سطح مهارت‌های متخصص فراتر بروند و کارکردی برابر با بزرگترین شرکت‌های امروزی پیدا کنند! از نظر جنبه‌های مثبت و منفی احتمالی، ابر هوش قوی‌تر از سایر فناوری‌هایی است که بشر در گذشته مجبور به مبارزه با آن‌ها بوده است. 

این نامه می‎گوید که ما می‌توانیم آینده‌ای به طور چشمگیری مرفه‌تر داشته باشیم اما برای رسیدن به آن باید ریسک را مدیریت کنیم. 

نویسندگان نامۀ مذکور خواهان ایجاد هماهنگی بین شرکت‌های بزرگی هستند که در زمینۀ هوش مصنوعی تحقیقات پیشرفته انجام می‌دهند تا توسعه این فناوری علاوه بر تسهیل زندگی مردم، در حالتی ایمن اتفاق بیافتد.

آن‌ها معتقدند که ایجاد هماهنگی مزبور از طریق یک پروژه تحت مدیریت دولت‌ها یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت‌های هوش مصنوعی انجام‌پذیر است.

خطرات توسعه بی‌ضابطه هوش مصنوعی چیست؟

پژوهشگران بیش از یک‌دهه است که درباره خطرات احتمالی ابر هوش هشدار می‌دهند اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات جدی‌تر شده است.

مرکز ایمنی هوش مصنوعی (CAIS) مستقر در آمریکا که در زمینه کاهش خطرات اجتماعی ناشی از هوش مصنوعی فعالیت می‌کند، خطرات بسیار مهم توسعۀ بی‌ضابطۀ هوش مصنوعی را در هشت گروه دسته‌بندی کرده است.

در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، CAIS آسیب‌های مخرب دیگری را توصیف می‌کند. جهانی که در آن سیستم‌های هوش مصنوعی به طور داوطلبانه نیروی کار بیشتری را به دست می‌آورند، می‌تواند به «از دست دادن توانایی خودگردانی و وابستگی کامل به ماشین‌ها از سوی بشر» منجر شود که به عنوان «ناتوانی» توصیف می‌شود. 

همچنین گروه کوچکی از افراد که سیستم‌های قدرتمند را کنترل می‌کنند، می‌توانند هوش مصنوعی را به یک نیروی متمرکز تبدیل در جهت پیشبرد اهداف خود تبدیل کنند.

مدیران اوپن.ای.آی اعتقاد دارند که مردم جهان باید به طور دموکراتیک از محدودیت‌ها و پیش فرض‌های سیستم‌های هوش مصنوعی آگاه شوند و دربارۀ نحوۀ مواجهه با آن تصمیم بگیرند اما اذعان دارند که «ما هنوز نمی‌دانیم چگونه چنین مکانیزمی را طراحی کنیم.» ولی آن‌ها در عین حال معتقدند که توسعه مداوم سیستم‌های قدرتمند ارزش ریسک را دارد. 

انتهای پیام/

نظر شما
بازرگانی برنا
لالالند
دندونت
سلام پرواز
بازرگانی برنا
لالالند
دندونت
سلام پرواز
بازرگانی برنا
لالالند
دندونت
سلام پرواز